1. Compléter l’écart : Fondamentaux du chargement des données
Les modèles d'apprentissage profond prospèrent sur des données propres et cohérentes, mais les jeux de données du monde réel sont intrinsèquement désordonnés. Nous devons passer des benchmarks prêts à l'emploi (comme MNIST) à la gestion de sources non structurées où le chargement des données est lui-même une tâche complexe d'orchestration. La base de ce processus repose sur les outils spécialisés de PyTorch pour la gestion des données.
Le défi central consiste à transformer les données brutes et dispersées (images, textes, fichiers audio) stockées sur disque en un format PyTorch hautement organisé et standardisé format Tensor attendu par la GPU. Cela nécessite une logique personnalisée pour l'indexation, le chargement, le prétraitement et enfin, le regroupement en lots.
Principaux défis liés aux données du monde réel
- Chaos des données : Données réparties dans plusieurs répertoires, souvent indexées uniquement par des fichiers CSV.
- Prétraitement nécessaire : Les images peuvent nécessiter un redimensionnement, une normalisation ou une augmentation avant d'être converties en tenseurs.
- Objectif d’efficacité : Les données doivent être livrées à la GPU sous forme de lots optimisés et non bloquants afin de maximiser la vitesse d'entraînement.
Dataset gère le « quoi » (comment accéder à un échantillon et son étiquette), tandis que le DataLoader gère le « comment » (regroupement efficace, mélange et livraison multithreadée).
Run code to inspect active tensors
Dataset object?DataLoader parameter enables parallel loading of data using multiple CPU cores?CustomDataset for 10,000 images indexed by a single CSV file containing paths and labels.
The
__len__ method.Concept: Defines the epoch size.
__getitem__(self, index)?1. Look up file path using
index.2. Load the raw data (e.g., Image).
3. Apply the necessary
transforms.4. Return the processed Tensor and Label.